]> git.neil.brown.name Git - wiggle.git/commitdiff
merge: be more careful about aligning hunk-headers with newlines.
authorNeilBrown <neilb@suse.de>
Fri, 22 Mar 2013 04:12:49 +0000 (15:12 +1100)
committerNeilBrown <neilb@suse.de>
Fri, 22 Mar 2013 04:12:49 +0000 (15:12 +1100)
When matching a diff to a file, it would be very confusing.
if the last match from one hunk were on the same line of the
original as the first match of the next hunk.
So we try to align hunk-headers with newlines.

In particular, we often find Unmatched and Extraneous
sections together.  There can be encoded in any order.
If the Extraneous section contains a hunk-header,
we want to make sure that if there is a newline anywhere
in the unmatched section, then the Unmatched that is placed
before the hunk-headers Extraneous ends on a newline.

There was code the attempted this, but it was too simplistic
and would sometimes move outside the regions that it should
have been examine, which would lead to various bugs.

The tests case which demonstrated this is added to the
test suite.

Reported-by: Rusty Russell <rusty@rustcorp.com.au>
Signed-off-by: NeilBrown <neilb@suse.de>
merge2.c
tests/linux/iomap/merge [new file with mode: 0644]
tests/linux/iomap/orig [new file with mode: 0644]
tests/linux/iomap/patch [new file with mode: 0644]
tests/linux/raid1-A/merge

index 492eb4acc64b3b39aa47300730d9c790ea9799ba..ff0d933ddc522602c4c10c5c090fe9e68626befe 100644 (file)
--- a/merge2.c
+++ b/merge2.c
@@ -408,6 +408,8 @@ struct ci make_merger(struct file af, struct file bf, struct file cf,
        struct ci rv;
        int i, l;
        int a, b, c, c1, c2;
+       int header_checked = -1;
+       int header_found = 0;
 
        rv.conflicts = rv.wiggles = rv.ignored = 0;
 
@@ -429,6 +431,17 @@ struct ci make_merger(struct file af, struct file bf, struct file cf,
                match1 = (a >= csl1[c1].a && b >= csl1[c1].b); /* c1 doesn't match */
                match2 = (b >= csl2[c2].a && c >= csl2[c2].b);
 
+               if (header_checked != c2) {
+                       /* Check if there is a hunk header in this range */
+                       int j;
+                       header_found = -1;
+                       for (j = b; j < csl2[c2].a + csl2[c2].len; j++)
+                               if (bf.list[j].start[0] == '\0') {
+                                       header_found = j;
+                                       break;
+                               }
+                       header_checked = c2;
+               }
                rv.merger[i].a = a;
                rv.merger[i].b = b;
                rv.merger[i].c = c;
@@ -439,18 +452,17 @@ struct ci make_merger(struct file af, struct file bf, struct file cf,
 
                if (!match1 && match2) {
                        /* This is either Unmatched or Extraneous - probably both.
-                        * If the match2 is a hunk-header Extraneous, it must
+                        * If the match2 has a hunk-header Extraneous, it must
                         * align with an end-of-line in 'a', so adjust endpoint
                         */
                        int newa = csl1[c1].a;
-                       if (b < bf.elcnt && bf.list[b].start
-                           && bf.list[b].start[0] == '\0') {
+                       if (header_found >= 0) {
                                while (newa > a &&
                                       !ends_line(af.list[newa-1]))
                                        newa--;
-                               while (newa < af.elcnt && !(newa == 0 || ends_line(af.list[newa-1])))
-                                       newa++;
                        }
+                       if (a == newa && b == csl1[c1].b)
+                               newa = csl1[c1].a;
                        if (a < newa) {
                                /* some unmatched text */
                                rv.merger[i].type = Unmatched;
@@ -459,7 +471,6 @@ struct ci make_merger(struct file af, struct file bf, struct file cf,
                                rv.merger[i].cl = 0;
                        } else {
                                int newb;
-                               int j;
                                assert(b < csl1[c1].b);
                                /* some Extraneous text */
                                /* length is min of unmatched on left
@@ -475,14 +486,14 @@ struct ci make_merger(struct file af, struct file bf, struct file cf,
                                newb = b +
                                        min(csl1[c1].b - b,
                                            csl2[c2].len - (b-csl2[c2].a));
-                               if (bf.list[b].start[0] == '\0')
+                               if (header_found == b) {
                                        newb = b + 1;
-                               for (j = b; j < newb; j++) {
-                                       if (bf.list[j].start[0] == '\0') {
-                                               if (j > b)
-                                                       newb = j;
-                                       }
+                                       header_checked = -1;
+                               } else if (header_found > b && header_found < newb) {
+                                       newb = header_found;
+                                       header_checked = -1;
                                }
+                               assert(newb > b);
                                rv.merger[i].cl =
                                        rv.merger[i].bl = newb - b;
                        }
diff --git a/tests/linux/iomap/merge b/tests/linux/iomap/merge
new file mode 100644 (file)
index 0000000..4f8888e
--- /dev/null
@@ -0,0 +1,354 @@
+/*
+ * Implement the default iomap interfaces
+ *
+ * (C) Copyright 2004 Linus Torvalds
+ */
+#include <linux/pci.h>
+#include <linux/io.h>
+
+#include <linux/export.h>
+
+/*
+ * Read/write from/to an (offsettable) iomem cookie. It might be a PIO
+ * access or a MMIO access, these functions don't care. The info is
+ * encoded in the hardware mapping set up by the mapping functions
+ * (or the cookie itself, depending on implementation and hw).
+ *
+ * The generic routines don't assume any hardware mappings, and just
+ * encode the PIO/MMIO as part of the cookie. They coldly assume that
+ * the MMIO IO mappings are not in the low address range.
+ *
+ * Architectures for which this is not true can't use this generic
+ * implementation and should do their own copy.
+ */
+
+#ifndef HAVE_ARCH_PIO_SIZE
+/*
+ * We encode the physical PIO addresses (0-0xffff) into the
+ * pointer by offsetting them with a constant (0x10000) and
+ * assuming that all the low addresses are always PIO. That means
+ * we can do some sanity checks on the low bits, and don't
+ * need to just take things for granted.
+ */
+#define PIO_OFFSET     0x10000UL
+#define PIO_MASK       0x0ffffUL
+#define PIO_RESERVED   0x40000UL
+#endif
+
+static void bad_io_access(unsigned long port, const char *access)
+{
+       static int count = 10;
+       if (count) {
+               count--;
+               WARN(1, KERN_ERR "Bad IO access at port %#lx (%s)\n", port, access);
+       }
+}
+
+/*
+ * Ugly macros are a way of life.
+ */
+#define IO_COND(addr, is_pio, is_mmio) do {                    \
+       unsigned long port = (unsigned long __force)addr;       \
+       if (port >= PIO_RESERVED) {                             \
+               is_mmio;                                        \
+       } else if (port > PIO_OFFSET) {                         \
+               port &= PIO_MASK;                               \
+               is_pio;                                         \
+       } else                                                  \
+               bad_io_access(port, #is_pio );                  \
+} while (0)
+
+#ifndef pio_read16be
+#define pio_read16be(port) swab16(inw(port))
+#define pio_read32be(port) swab32(inl(port))
+#endif
+
+#ifndef mmio_read16be
+#define mmio_read16be(addr) be16_to_cpu(__raw_readw(addr))
+#define mmio_read32be(addr) be32_to_cpu(__raw_readl(addr))
+#endif
+
+unsigned int ioread8(void __iomem *addr)
+{
+       IO_COND(addr, return inb(port), return readb(addr));
+       return 0xff;
+}
+unsigned int ioread16(void __iomem *addr)
+{
+       IO_COND(addr, return inw(port), return readw(addr));
+       return 0xffff;
+}
+unsigned int ioread16be(void __iomem *addr)
+{
+       IO_COND(addr, return pio_read16be(port), return mmio_read16be(addr));
+       return 0xffff;
+}
+unsigned int ioread32(void __iomem *addr)
+{
+       IO_COND(addr, return inl(port), return readl(addr));
+       return 0xffffffff;
+}
+unsigned int ioread32be(void __iomem *addr)
+{
+       IO_COND(addr, return pio_read32be(port), return mmio_read32be(addr));
+       return 0xffffffff;
+}
+EXPORT_SYMBOL(ioread8);
+EXPORT_SYMBOL(ioread16);
+EXPORT_SYMBOL(ioread16be);
+EXPORT_SYMBOL(ioread32);
+EXPORT_SYMBOL(ioread32be);
+
+#ifndef pio_write16be
+#define pio_write16be(val,port) outw(swab16(val),port)
+#define pio_write32be(val,port) outl(swab32(val),port)
+#endif
+
+#ifndef mmio_write16be
+#define mmio_write16be(val,port) __raw_writew(be16_to_cpu(val),port)
+#define mmio_write32be(val,port) __raw_writel(be32_to_cpu(val),port)
+#endif
+
+void iowrite8(u8 val, void __iomem *addr)
+{
+       IO_COND(addr, outb(val,port), writeb(val, addr));
+}
+void iowrite16(u16 val, void __iomem *addr)
+{
+       IO_COND(addr, outw(val,port), writew(val, addr));
+}
+void iowrite16be(u16 val, void __iomem *addr)
+{
+       IO_COND(addr, pio_write16be(val,port), mmio_write16be(val, addr));
+}
+void iowrite32(u32 val, void __iomem *addr)
+{
+       IO_COND(addr, outl(val,port), writel(val, addr));
+}
+void iowrite32be(u32 val, void __iomem *addr)
+{
+       IO_COND(addr, pio_write32be(val,port), mmio_write32be(val, addr));
+}
+EXPORT_SYMBOL(iowrite8);
+EXPORT_SYMBOL(iowrite16);
+EXPORT_SYMBOL(iowrite16be);
+EXPORT_SYMBOL(iowrite32);
+EXPORT_SYMBOL(iowrite32be);
+
+/*
+ * These are the "repeat MMIO read/write" functions.
+ * Note the "__raw" accesses, since we don't want to
+ * convert to CPU byte order. We write in "IO byte
+ * order" (we also don't have IO barriers).
+ */
+#ifndef mmio_insb
+static inline void mmio_insb(void __iomem *addr, u8 *dst, int count)
+{
+       while (--count >= 0) {
+               u8 data = __raw_readb(addr);
+               *dst = data;
+               dst++;
+       }
+}
+static inline void mmio_insw(void __iomem *addr, u16 *dst, int count)
+{
+       while (--count >= 0) {
+               u16 data = __raw_readw(addr);
+               *dst = data;
+               dst++;
+       }
+}
+static inline void mmio_insl(void __iomem *addr, u32 *dst, int count)
+{
+       while (--count >= 0) {
+               u32 data = __raw_readl(addr);
+               *dst = data;
+               dst++;
+       }
+}
+#endif
+
+#ifndef mmio_outsb
+static inline void mmio_outsb(void __iomem *addr, const u8 *src, int count)
+{
+       while (--count >= 0) {
+               __raw_writeb(*src, addr);
+               src++;
+       }
+}
+static inline void mmio_outsw(void __iomem *addr, const u16 *src, int count)
+{
+       while (--count >= 0) {
+               __raw_writew(*src, addr);
+               src++;
+       }
+}
+static inline void mmio_outsl(void __iomem *addr, const u32 *src, int count)
+{
+       while (--count >= 0) {
+               __raw_writel(*src, addr);
+               src++;
+       }
+}
+#endif
+
+void ioread8_rep(void __iomem *addr, void *dst, unsigned long count)
+{
+       IO_COND(addr, insb(port,dst,count), mmio_insb(addr, dst, count));
+}
+void ioread16_rep(void __iomem *addr, void *dst, unsigned long count)
+{
+       IO_COND(addr, insw(port,dst,count), mmio_insw(addr, dst, count));
+}
+void ioread32_rep(void __iomem *addr, void *dst, unsigned long count)
+{
+       IO_COND(addr, insl(port,dst,count), mmio_insl(addr, dst, count));
+}
+EXPORT_SYMBOL(ioread8_rep);
+EXPORT_SYMBOL(ioread16_rep);
+EXPORT_SYMBOL(ioread32_rep);
+
+void iowrite8_rep(void __iomem *addr, const void *src, unsigned long count)
+{
+       IO_COND(addr, outsb(port, src, count), mmio_outsb(addr, src, count));
+}
+void iowrite16_rep(void __iomem *addr, const void *src, unsigned long count)
+{
+       IO_COND(addr, outsw(port, src, count), mmio_outsw(addr, src, count));
+}
+void iowrite32_rep(void __iomem *addr, const void *src, unsigned long count)
+{
+       IO_COND(addr, outsl(port, src,count), mmio_outsl(addr, src, count));
+}
+EXPORT_SYMBOL(iowrite8_rep);
+EXPORT_SYMBOL(iowrite16_rep);
+EXPORT_SYMBOL(iowrite32_rep);
+
+#ifdef CONFIG_HAS_IOPORT
+/* Create a virtual mapping cookie for an IO port range */
+void __iomem *ioport_map(unsigned long port, unsigned int nr)
+{
+       if (port > PIO_MASK)
+               return NULL;
+       return (void __iomem *) (unsigned long) (port + PIO_OFFSET);
+}
+
+<<<<<<<
+void ioport_unmap(void __iomem *addr)
+{
+       /* Nothing to do */
+}
+|||||||
+#ifdef CONFIG_PCI
+/**
+ * pci_iomap - create a virtual mapping cookie for a PCI BAR
+ * @dev: PCI device that owns the BAR
+ * @bar: BAR number
+ * @maxlen: length of the memory to map
+ *
+ * Using this function you will get a __iomem address to your device BAR.
+=======
+#ifdef CONFIG_PCI
+/**
+ * pci_iomap_range - create a virtual mapping cookie for a PCI BAR
+ * @dev: PCI device that owns the BAR
+ * @bar: BAR number
+ * @offset: map memory at the given offset in BAR
+ * @minlen: min length of the memory to map
+ * @maxlen: max length of the memory to map
+ *
+ * Using this function you will get a __iomem address to your device BAR.
+>>>>>>>
+EXPORT_SYMBOL(ioport_map);
+EXPORT_SYMBOL(ioport_unmap);
+#endif /* CONFIG_HAS_IOPORT */
+
+#ifdef CONFIG_PCI
+/* Hide the details if this is a MMIO or PIO address space and just do what
+<<<<<<<
+ * you expect in the correct way. */|||||||
+ * you expect from them in the correct way.
+ *
+ * @maxlen specifies the maximum length to map. If you want to get access to
+ * the complete BAR without checking for its length first, pass %0 here.
+ * */
+void __iomem *pci_iomap(struct pci_dev *dev, int bar, unsigned long maxlen)
+{
+       resource_size_t start = pci_resource_start(dev, bar);
+       resource_size_t len = pci_resource_len(dev, bar);
+       unsigned long flags = pci_resource_flags(dev, bar);
+
+       if (!len || !start)
+               return NULL;
+       if (maxlen && len > maxlen)
+               len = maxlen;
+       if (flags & IORESOURCE_IO)
+               return ioport_map(start, len);
+       if (flags & IORESOURCE_MEM) {
+               if (flags & IORESOURCE_CACHEABLE)
+                       return ioremap(start, len);
+               return ioremap_nocache(start, len);
+       }
+=======
+ * you expect from them in the correct way.
+ *
+ * @minlen specifies the minimum length to map. We check that BAR is
+ * large enough.
+ * @maxlen specifies the maximum length to map. If you want to get access to
+ * the complete BAR from offset to the end, pass %0 here.
+ * @force_nocache makes the mapping noncacheable even if the BAR
+ * is prefetcheable. It has no effect otherwise.
+ * */
+void __iomem *pci_iomap_range(struct pci_dev *dev, int bar,
+                             unsigned offset,
+                             unsigned long minlen,
+                             unsigned long maxlen,
+                             bool force_nocache)
+{
+       resource_size_t start = pci_resource_start(dev, bar);
+       resource_size_t len = pci_resource_len(dev, bar);
+       unsigned long flags = pci_resource_flags(dev, bar);
+
+       if (len <= offset || !start)
+               return NULL;
+       len -= offset;
+       start += offset;
+       if (len < minlen)
+               return NULL;
+       if (maxlen && len > maxlen)
+               len = maxlen;
+       if (flags & IORESOURCE_IO)
+               return ioport_map(start, len);
+       if (flags & IORESOURCE_MEM) {
+               if (!force_nocache && (flags & IORESOURCE_CACHEABLE))
+                       return ioremap(start, len);
+               return ioremap_nocache(start, len);
+       }
+>>>>>>>
+
+/**
+ * pci_iomap - create a virtual mapping cookie for a PCI BAR
+ * @dev: PCI device that owns the BAR
+ * @bar: BAR number
+ * @maxlen: length of the memory to map
+ *
+ * Using this function you will get a __iomem address to your device BAR.
+ * You can access it using ioread*() and iowrite*(). These functions hide
+ * the details if this is a MMIO or PIO address space and will just do what
+ * you expect from them in the correct way.
+ *
+ * @maxlen specifies the maximum length to map. If you want to get access to
+ * the complete BAR without checking for its length first, pass %0 here.
+ * */
+void __iomem *pci_iomap(struct pci_dev *dev, int bar, unsigned long maxlen)
+{
+       return pci_iomap_range(dev, bar, 0, 0, maxlen, false);
+}
+
+void pci_iounmap(struct pci_dev *dev, void __iomem * addr)
+{
+       IO_COND(addr, /* nothing */, iounmap(addr));
+}
+EXPORT_SYMBOL(pci_iomap_range);
+EXPORT_SYMBOL(pci_iounmap);
+#endif /* CONFIG_PCI */
diff --git a/tests/linux/iomap/orig b/tests/linux/iomap/orig
new file mode 100644 (file)
index 0000000..2c08f36
--- /dev/null
@@ -0,0 +1,252 @@
+/*
+ * Implement the default iomap interfaces
+ *
+ * (C) Copyright 2004 Linus Torvalds
+ */
+#include <linux/pci.h>
+#include <linux/io.h>
+
+#include <linux/export.h>
+
+/*
+ * Read/write from/to an (offsettable) iomem cookie. It might be a PIO
+ * access or a MMIO access, these functions don't care. The info is
+ * encoded in the hardware mapping set up by the mapping functions
+ * (or the cookie itself, depending on implementation and hw).
+ *
+ * The generic routines don't assume any hardware mappings, and just
+ * encode the PIO/MMIO as part of the cookie. They coldly assume that
+ * the MMIO IO mappings are not in the low address range.
+ *
+ * Architectures for which this is not true can't use this generic
+ * implementation and should do their own copy.
+ */
+
+#ifndef HAVE_ARCH_PIO_SIZE
+/*
+ * We encode the physical PIO addresses (0-0xffff) into the
+ * pointer by offsetting them with a constant (0x10000) and
+ * assuming that all the low addresses are always PIO. That means
+ * we can do some sanity checks on the low bits, and don't
+ * need to just take things for granted.
+ */
+#define PIO_OFFSET     0x10000UL
+#define PIO_MASK       0x0ffffUL
+#define PIO_RESERVED   0x40000UL
+#endif
+
+static void bad_io_access(unsigned long port, const char *access)
+{
+       static int count = 10;
+       if (count) {
+               count--;
+               WARN(1, KERN_ERR "Bad IO access at port %#lx (%s)\n", port, access);
+       }
+}
+
+/*
+ * Ugly macros are a way of life.
+ */
+#define IO_COND(addr, is_pio, is_mmio) do {                    \
+       unsigned long port = (unsigned long __force)addr;       \
+       if (port >= PIO_RESERVED) {                             \
+               is_mmio;                                        \
+       } else if (port > PIO_OFFSET) {                         \
+               port &= PIO_MASK;                               \
+               is_pio;                                         \
+       } else                                                  \
+               bad_io_access(port, #is_pio );                  \
+} while (0)
+
+#ifndef pio_read16be
+#define pio_read16be(port) swab16(inw(port))
+#define pio_read32be(port) swab32(inl(port))
+#endif
+
+#ifndef mmio_read16be
+#define mmio_read16be(addr) be16_to_cpu(__raw_readw(addr))
+#define mmio_read32be(addr) be32_to_cpu(__raw_readl(addr))
+#endif
+
+unsigned int ioread8(void __iomem *addr)
+{
+       IO_COND(addr, return inb(port), return readb(addr));
+       return 0xff;
+}
+unsigned int ioread16(void __iomem *addr)
+{
+       IO_COND(addr, return inw(port), return readw(addr));
+       return 0xffff;
+}
+unsigned int ioread16be(void __iomem *addr)
+{
+       IO_COND(addr, return pio_read16be(port), return mmio_read16be(addr));
+       return 0xffff;
+}
+unsigned int ioread32(void __iomem *addr)
+{
+       IO_COND(addr, return inl(port), return readl(addr));
+       return 0xffffffff;
+}
+unsigned int ioread32be(void __iomem *addr)
+{
+       IO_COND(addr, return pio_read32be(port), return mmio_read32be(addr));
+       return 0xffffffff;
+}
+EXPORT_SYMBOL(ioread8);
+EXPORT_SYMBOL(ioread16);
+EXPORT_SYMBOL(ioread16be);
+EXPORT_SYMBOL(ioread32);
+EXPORT_SYMBOL(ioread32be);
+
+#ifndef pio_write16be
+#define pio_write16be(val,port) outw(swab16(val),port)
+#define pio_write32be(val,port) outl(swab32(val),port)
+#endif
+
+#ifndef mmio_write16be
+#define mmio_write16be(val,port) __raw_writew(be16_to_cpu(val),port)
+#define mmio_write32be(val,port) __raw_writel(be32_to_cpu(val),port)
+#endif
+
+void iowrite8(u8 val, void __iomem *addr)
+{
+       IO_COND(addr, outb(val,port), writeb(val, addr));
+}
+void iowrite16(u16 val, void __iomem *addr)
+{
+       IO_COND(addr, outw(val,port), writew(val, addr));
+}
+void iowrite16be(u16 val, void __iomem *addr)
+{
+       IO_COND(addr, pio_write16be(val,port), mmio_write16be(val, addr));
+}
+void iowrite32(u32 val, void __iomem *addr)
+{
+       IO_COND(addr, outl(val,port), writel(val, addr));
+}
+void iowrite32be(u32 val, void __iomem *addr)
+{
+       IO_COND(addr, pio_write32be(val,port), mmio_write32be(val, addr));
+}
+EXPORT_SYMBOL(iowrite8);
+EXPORT_SYMBOL(iowrite16);
+EXPORT_SYMBOL(iowrite16be);
+EXPORT_SYMBOL(iowrite32);
+EXPORT_SYMBOL(iowrite32be);
+
+/*
+ * These are the "repeat MMIO read/write" functions.
+ * Note the "__raw" accesses, since we don't want to
+ * convert to CPU byte order. We write in "IO byte
+ * order" (we also don't have IO barriers).
+ */
+#ifndef mmio_insb
+static inline void mmio_insb(void __iomem *addr, u8 *dst, int count)
+{
+       while (--count >= 0) {
+               u8 data = __raw_readb(addr);
+               *dst = data;
+               dst++;
+       }
+}
+static inline void mmio_insw(void __iomem *addr, u16 *dst, int count)
+{
+       while (--count >= 0) {
+               u16 data = __raw_readw(addr);
+               *dst = data;
+               dst++;
+       }
+}
+static inline void mmio_insl(void __iomem *addr, u32 *dst, int count)
+{
+       while (--count >= 0) {
+               u32 data = __raw_readl(addr);
+               *dst = data;
+               dst++;
+       }
+}
+#endif
+
+#ifndef mmio_outsb
+static inline void mmio_outsb(void __iomem *addr, const u8 *src, int count)
+{
+       while (--count >= 0) {
+               __raw_writeb(*src, addr);
+               src++;
+       }
+}
+static inline void mmio_outsw(void __iomem *addr, const u16 *src, int count)
+{
+       while (--count >= 0) {
+               __raw_writew(*src, addr);
+               src++;
+       }
+}
+static inline void mmio_outsl(void __iomem *addr, const u32 *src, int count)
+{
+       while (--count >= 0) {
+               __raw_writel(*src, addr);
+               src++;
+       }
+}
+#endif
+
+void ioread8_rep(void __iomem *addr, void *dst, unsigned long count)
+{
+       IO_COND(addr, insb(port,dst,count), mmio_insb(addr, dst, count));
+}
+void ioread16_rep(void __iomem *addr, void *dst, unsigned long count)
+{
+       IO_COND(addr, insw(port,dst,count), mmio_insw(addr, dst, count));
+}
+void ioread32_rep(void __iomem *addr, void *dst, unsigned long count)
+{
+       IO_COND(addr, insl(port,dst,count), mmio_insl(addr, dst, count));
+}
+EXPORT_SYMBOL(ioread8_rep);
+EXPORT_SYMBOL(ioread16_rep);
+EXPORT_SYMBOL(ioread32_rep);
+
+void iowrite8_rep(void __iomem *addr, const void *src, unsigned long count)
+{
+       IO_COND(addr, outsb(port, src, count), mmio_outsb(addr, src, count));
+}
+void iowrite16_rep(void __iomem *addr, const void *src, unsigned long count)
+{
+       IO_COND(addr, outsw(port, src, count), mmio_outsw(addr, src, count));
+}
+void iowrite32_rep(void __iomem *addr, const void *src, unsigned long count)
+{
+       IO_COND(addr, outsl(port, src,count), mmio_outsl(addr, src, count));
+}
+EXPORT_SYMBOL(iowrite8_rep);
+EXPORT_SYMBOL(iowrite16_rep);
+EXPORT_SYMBOL(iowrite32_rep);
+
+#ifdef CONFIG_HAS_IOPORT
+/* Create a virtual mapping cookie for an IO port range */
+void __iomem *ioport_map(unsigned long port, unsigned int nr)
+{
+       if (port > PIO_MASK)
+               return NULL;
+       return (void __iomem *) (unsigned long) (port + PIO_OFFSET);
+}
+
+void ioport_unmap(void __iomem *addr)
+{
+       /* Nothing to do */
+}
+EXPORT_SYMBOL(ioport_map);
+EXPORT_SYMBOL(ioport_unmap);
+#endif /* CONFIG_HAS_IOPORT */
+
+#ifdef CONFIG_PCI
+/* Hide the details if this is a MMIO or PIO address space and just do what
+ * you expect in the correct way. */
+void pci_iounmap(struct pci_dev *dev, void __iomem * addr)
+{
+       IO_COND(addr, /* nothing */, iounmap(addr));
+}
+EXPORT_SYMBOL(pci_iounmap);
+#endif /* CONFIG_PCI */
diff --git a/tests/linux/iomap/patch b/tests/linux/iomap/patch
new file mode 100644 (file)
index 0000000..dd35fff
--- /dev/null
@@ -0,0 +1,86 @@
+diff a/lib/iomap.c b/lib/iomap.c       (rejected hunks)
+@@ -243,33 +243,47 @@ EXPORT_SYMBOL(ioport_unmap);
+ #ifdef CONFIG_PCI
+ /**
+- * pci_iomap - create a virtual mapping cookie for a PCI BAR
++ * pci_iomap_range - create a virtual mapping cookie for a PCI BAR
+  * @dev: PCI device that owns the BAR
+  * @bar: BAR number
+- * @maxlen: length of the memory to map
++ * @offset: map memory at the given offset in BAR
++ * @minlen: min length of the memory to map
++ * @maxlen: max length of the memory to map
+  *
+  * Using this function you will get a __iomem address to your device BAR.
+  * You can access it using ioread*() and iowrite*(). These functions hide
+  * the details if this is a MMIO or PIO address space and will just do what
+  * you expect from them in the correct way.
+  *
++ * @minlen specifies the minimum length to map. We check that BAR is
++ * large enough.
+  * @maxlen specifies the maximum length to map. If you want to get access to
+- * the complete BAR without checking for its length first, pass %0 here.
++ * the complete BAR from offset to the end, pass %0 here.
++ * @force_nocache makes the mapping noncacheable even if the BAR
++ * is prefetcheable. It has no effect otherwise.
+  * */
+-void __iomem *pci_iomap(struct pci_dev *dev, int bar, unsigned long maxlen)
++void __iomem *pci_iomap_range(struct pci_dev *dev, int bar,
++                            unsigned offset,
++                            unsigned long minlen,
++                            unsigned long maxlen,
++                            bool force_nocache)
+ {
+       resource_size_t start = pci_resource_start(dev, bar);
+       resource_size_t len = pci_resource_len(dev, bar);
+       unsigned long flags = pci_resource_flags(dev, bar);
+-      if (!len || !start)
++      if (len <= offset || !start)
++              return NULL;
++      len -= offset;
++      start += offset;
++      if (len < minlen)
+               return NULL;
+       if (maxlen && len > maxlen)
+               len = maxlen;
+       if (flags & IORESOURCE_IO)
+               return ioport_map(start, len);
+       if (flags & IORESOURCE_MEM) {
+-              if (flags & IORESOURCE_CACHEABLE)
++              if (!force_nocache && (flags & IORESOURCE_CACHEABLE))
+                       return ioremap(start, len);
+               return ioremap_nocache(start, len);
+       }
+@@ -277,10 +291,30 @@ void __iomem *pci_iomap(struct pci_dev *dev, int bar, unsigned long maxlen)
+       return NULL;
+ }
++/**
++ * pci_iomap - create a virtual mapping cookie for a PCI BAR
++ * @dev: PCI device that owns the BAR
++ * @bar: BAR number
++ * @maxlen: length of the memory to map
++ *
++ * Using this function you will get a __iomem address to your device BAR.
++ * You can access it using ioread*() and iowrite*(). These functions hide
++ * the details if this is a MMIO or PIO address space and will just do what
++ * you expect from them in the correct way.
++ *
++ * @maxlen specifies the maximum length to map. If you want to get access to
++ * the complete BAR without checking for its length first, pass %0 here.
++ * */
++void __iomem *pci_iomap(struct pci_dev *dev, int bar, unsigned long maxlen)
++{
++      return pci_iomap_range(dev, bar, 0, 0, maxlen, false);
++}
++
+ void pci_iounmap(struct pci_dev *dev, void __iomem * addr)
+ {
+       IO_COND(addr, /* nothing */, iounmap(addr));
+ }
+ EXPORT_SYMBOL(pci_iomap);
++EXPORT_SYMBOL(pci_iomap_range);
+ EXPORT_SYMBOL(pci_iounmap);
+ #endif /* CONFIG_PCI */
index eac97180884975e212ef02e314269a9da431be63..6e86939f1e575a47fd2fc0a9a372dae94293f0d3 100644 (file)
@@ -918,7 +918,6 @@ static int make_request(mddev_t *mddev, struct bio * bio)
 <<<<<<<
                }
 
-               atomic_inc(&r1_bio->remaining);
 |||||||
                bio_list_add(&bl, mbio);
        }
@@ -931,6 +930,7 @@ static int make_request(mddev_t *mddev, struct bio * bio)
        kfree(behind_pages); /* the behind pages are attached to the bios now */
 
 >>>>>>>
+               atomic_inc(&r1_bio->remaining);
 <<<<<<<
                spin_lock_irqsave(&conf->device_lock, flags);
                bio_list_add(&conf->pending_bio_list, mbio);
@@ -938,14 +938,12 @@ static int make_request(mddev_t *mddev, struct bio * bio)
        }
        r1_bio_write_done(r1_bio);
 |||||||
-                               test_bit(R1BIO_BehindIO, &r1_bio->state));
        spin_lock_irqsave(&conf->device_lock, flags);
        bio_list_merge(&conf->pending_bio_list, &bl);
        bio_list_init(&bl);
 
        blk_plug_device(mddev->queue);
 =======
-                               test_bit(R1BIO_BehindIO, &r1_bio->state));
        spin_lock_irqsave(&conf->device_lock, flags);
        bio_list_merge(&conf->pending_bio_list, &bl);
        conf->pending_count += bl_count;